Pillole

Pillole di informazione digitale

Segnalazioni di articoli su diritti digitali, software libero, open data, didattica, tecno-controllo, privacy, big data, AI, Machine learning...

Puntata del 15 ottobre 2023
I sistemi di predizione del crimine non funzionano. Negli USA, dove i sistemi predittivi cominciano ad avere una certa diffusione, è stato fatto uno studio sulla loro accuratezza: il risutato è che questa è minima, con valori <1%. Il sistema studiato è paranoico, cioè predice un numero di crimini quasi 100 volte superiore a quelli segnalati e comunque la corrispondenza tra crimini predetti e segnalati è ridicolmente bassa.

L'Antitrust USA indaga su Google ed Amazon per pratiche scorrette che porterebbero a generare situazioni di monopolio con danno ai venditori/inserzionisti e di conseguenza ai consumatori.

La Microsoft vira al nucleare: è vero? Effettivamente stanno assumendo qualcuno per studiare la fattibilità di alimentare i data center con piccoli reattori di IV generazione.

Infine, le notiziole: parliamo di un cavo sincero che ammette di mandare tutti i tuoi dati in Cina, della sparizione di un utile add-on su Firefox, della dipartita del mai dimenticato (!) VBScript e della possibilità che Windows abbia licenze in abbonamento.

Ascolta la puntata su Radio Onda Rossa

Si sa ancora poco di Giove, il nuovo sistema di polizia predittiva italiano che il Ministero dell’Interno vorrebbe dare in dotazione a tutte le questure d’Italia.

Sviluppato dentro il Dipartimento di pubblica sicurezza del Ministero dell’Interno – sulla base delle sperimentazioni portate avanti dal 2008 dalla questura di Milano con il software KeyCrime – Giove si presenta come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, come riporta Il Sole 24Ore, e sarebbe in grado di predire dove e quando i reati di maggior impatto sociale, come molestie sessuali, furti in abitazione e truffe agli anziani, potrebbero verificarsi nuovamente.

Uno scenario che richiama la fantascienza e che solleva dubbi e perplessità tra gli addetti ai lavori, soprattutto per la comprovata incapacità attuale di questi sistemi di trovare corrispondenze con la realtà e per la loro tendenza a discriminare le persone in base all’etnia e alla provenienza geografica. Non solo, ad aumentare la preoccupazione è il fatto che nulla sia ancora stato detto circa alcuni aspetti fondamentali, come quali banche dati e dati verranno usati per addestrare l’algoritmo, chi sarà il responsabile del trattamento dei dati e se l’uso del sistema comporterà o meno arresti preventivi. Domande che hanno spinto alcuni senatori a depositare, qualche giorno fa, un’interrogazione parlamentare dedicata.

Uno scenario inquietante, insomma, che potrebbe materializzarsi se il sistema otterrà il parere positivo del Garante della privacy.
Ne parliamo con Jacopo, parte del gruppo di ricerca C.I.R.C.E

Ascolta l'audio dell'intervento di Jacopo sul sito di Radio Onda D'Urto

Sarebbe in grado di prevedere crimini futuri, ma alcuni parlamentari chiedono al ministero dell'Interno più informazioni su privacy e algoritmo utilizzati

È stata depositata in Senato un'interrogazione parlamentare sul sistema Giove, il software italiano di “polizia predittiva” annunciato ieri dal Dipartimento di pubblica sicurezza del ministero dell'Interno e che sarebbe destinato a tutte le questure italiane.

Il testo, che vede come primo firmatario il senatore dem Filippo Sensi (già attivo nella precedente legislatura sul tema delle intelligenze artificiali), chiede al ministero dell'Interno delucidazioni in merito alla “capacità di previsione di una serie di reati in base allo sviluppo di un algoritmo di intelligenza artificiale - sulla carta controllato e gestito da operatori della Polizia di Stato - come supporto alle indagini preliminari” e di chiarire “quali interventi intenda mettere in atto per introdurre il sistema Giove in Italia, se esistono altri software di questo tipo già in uso o dei quali si prospetta l'utilizzo, quali aziende siano state coinvolte nella definizione di questa tecnologia, della sua implementazione e del suo sviluppo”.

Un software, Giove, che dovrebbe essere in grado infatti di “prevedere” i cosiddetti crimini predatori, che molto spesso sono esemplificati dal furto e dalla rapina...

Leggi l'articolo

“All’inizio c’era l’idea che la tecnologia potesse risolvere i problemi”, dice nel video Andrew G. Ferguson, saggista e docente di diritto statunitense. “Offriva alle forze dell’ordine la possibilità di fare di più con meno risorse”.

Le attività di polizia predittiva si basano sull’uso di metodi statistici per anticipare e quindi evitare la commissione di reati, come nel film di Steven Spielberg Minority Report. Negli ultimi anni questa tecnologia è diventata sempre più sofisticata e in varie città statunitensi sono stati sperimentati dei software che, attraverso la combinazione di diversi tipi di dati, avrebbero dovuto individuare i soggetti più inclini a commettere un crimine violento. Il loro uso ha scatenato polemiche e preoccupazioni per la tutela dei diritti umani.

I sostenitori di questi sistemi sostengono che questi software, escludendo la valutazione umana con i suoi pregiudizi, permetterebbero alle forze di polizia di agire in maniera più equa. Ma anche su questo sono stati sollevati dei dubbi: “Se nei dati inseriti è presente un pregiudizio razziale, anche i risultati conterranno lo stesso pregiudizio”, spiega Ferguson.

Guarda il video della Thomson Reuters Foundation sul sito di Internazionale.